最近显示外部眼睛照片显示出糖尿病性视网膜疾病和HBA1C升高的迹象。在本文中,我们评估外部眼睛照片是否包含有关其他系统性医疗状况的信息。我们开发了一个深度学习系统(DLS),该系统将外部眼睛的照片作为输入,并预测多个全身参数,例如与肝脏有关的参数(白蛋白,AST);肾脏(EGFR使用无种族的2021 CKD-EPI肌酐方程,尿液ACR);骨与矿物质(钙);甲状腺(TSH);和血数(HGB,WBC,血小板)。开发利用了49,015例糖尿病患者的151,237张图像,在加利福尼亚州洛杉矶县的11个地点接受糖尿病眼镜筛查。评估重点是9个预先指定的全身参数,并利用了3个验证集(a,b,c),涵盖了28,869名患有和没有糖尿病的患者,在加利福尼亚州洛杉矶县和大亚特兰大地区的3个独立地点进行了眼睛筛查。我们将结合了可用临床人口统计学变量的基线模型(例如年龄,性别,种族/种族,糖尿病年)进行了比较。相对于基线,DLS在检测AST> 36,钙<8.6,egfr <60,HGB <11,血小板<150,ACR> = 300和WBC <4时,在检测AST> 36,钙<8.6,Egfr <60,HGB <60,HGB <60,calcium <8.6,Egfr <60,calcium <8.6和wbc <4时,达到了统计学上的显着性能,并且类似于开发集的人口),其中DLS的AUC超过基线的AUC,增长了5.2-19.4%。在验证集B和C方面,与开发集相比,患者人群的差异很大,DLS的表现优于ACR> = 300的基线,而HGB <11升至7.3-13.2%。我们的发现提供了进一步的证据,表明外部眼睛照片包含跨越多器官系统的全身健康生物标志物。需要进一步的工作来研究这些生物标志物是否以及如何转化为临床影响。
translated by 谷歌翻译
大型预先接受的变压器的语言模型,如BERT大大改变了自然语言处理(NLP)字段。我们展示了对最近的工作的调查,这些工作使用这些大型语言模型通过预先训练,提示或文本生成方法来解决NLP任务。我们还提出了使用预先训练的语言模型来生成培训增强或其他目的的数据的方法。我们在讨论有关未来研究的局限性和建议方向的结论。
translated by 谷歌翻译
机器人辅助的手术辅助外科医生和患者,但外科医生经常需要调整内窥镜摄像头以实现良好的观点。同时控制相机和外科手术器械是不可能的,因此,这些相机调整反复中断手术。自主摄像机控制可以帮助克服这一挑战,但大多数现有系统都是反应性的,例如,通过使相机遵循外科手术器械。当使用人工神经网络发生相机运动时,我们提出了一种预测的方法,以期待相机运动。我们使用了手术器械的运动学数据,这些数据在猪模型的机器人辅助手术训练中记录。我们将数据拆分为段,并将其标记为立即在相机移动之前的段,或者段。由于阶级的不平衡庞大,我们培训了一个网络的集合,每个网络都在训练数据的平衡子集上。我们发现仪器的运动学数据可用于预测当发生相机运动时,并在不同段持续时间和合奏尺寸上进行评估。我们还研究了预测即将到来的相机运动的提前多少,并且发现预测相机运动0.25,0.5和1秒,在它们发生的情况下实现98%,94%和84%的精度相对于迫在眉睫的预测相机运动。这表明可以早期预测相机运动事件以留出计算和执行自主摄像机运动的时间,并表明可以有一天可以是可行的RAMIS的自主摄像机控制器。
translated by 谷歌翻译
机器人辅助的微创手术(RMI)缺乏触觉反馈是在手术过程中安全组织处理的潜在障碍。贝叶斯建模理论表明,与没有经验的外科医生相比,在RMIS期间,具有开放或腹腔镜手术经验的外科医生可以发展为组织刚度的先验。为了测试先前的触觉经验是否导致远程操作的力估计能力提高,将33名参与者分配到三个训练条件之一:手动操纵,用力反馈的远程操作或无力反馈的远程操作,并学会了将硅胶样品张紧到一套力值。然后,他们被要求执行张力任务,以及先前未经触觉的任务,而无需反馈而在远程操作下进行不同的力量值。与远程操作组相比,手动组在训练的力量范围之外的张力任务中具有较高的力误差,但在低力水平下,在触诊任务中显示出更好的速度准确性功能。这表明训练方式的动力学会影响远程操作过程中的力估计能力,如果在与任务相同的动态下形成,则可以访问先前的触觉体验。
translated by 谷歌翻译